1.6k 词
Shadow price 平均非扩张一定是非扩张 不动点理论(梯度下降法): Convex function(可导情况)Definition 一阶等价条件: 左边是函数曲线上任意值y,右边是看成切线过点(x,f(x))也是任意x。 证明过程: 已知f是凸函数反证回去:理解为在x点沿着y-x的方向就是x+t(y-x): 应用: Convex function(不可导情况)次微分 注意:次微分是一个集合公式理解:左边是图像,右边是切线,y就是斜率 梯度是次微分唯一元素(可导) 证明核心:梯度一定在次微分集合里面,要证明次微分集合只有唯一元素。假设存在p属于次微分,让p等于梯度。对应任意把 换成 ,就有: 应用: 由于属于最小值: 而次梯度定义是: proximity算子 subdifferential of L1-normproximity operator of L1-normsubdifferential of L2-normproximity operator of L2-norm证明:Let. Then is firmly nonexpansive. 应用:函数...
3.2k 词
测度论:σ-field field和σ-field:区别在于性质三:field要求有限unions属于F σ-field要求可数unions属于F Borel σ-field 注意:,意味着A是一个区间。 术语:Measurable spaace Measure Measured space 关系网 finite measure and probability measure probabilities(常用于证明)注意: 全集S带进去,概率等于1. Measure种类:Counting measure 格式: cdf : ==, IndependentIndependent of random variable 写是在说:随机变量的取值落在集合中,这构成一个事件 定义两个随机变量: :第一次掷硬币的结果,设为 1 表示正面,0 表示反面; ​:第二次掷硬币的结果,定义同上。 我们设概率空间 为四种可能结果的集合: 每个事件概率为 ​。设 是第一次是否为正面,是第二次是否为正面。 我们来看这两个随机变量是否独立。 根据定义,对所有...
6.2k 词
Deterministic Model and Stochastic ModelDeterministic ModelA deterministic model is a model that contains no random variables and always produces the same output for a given set of initial conditions and inputs. Its behavior is entirely predictable and without any element of chance. Stochastic ModelA stochastic model is a model that incorporates random variables and elements of chance. Due to the presence of randomness, even with the same initial conditions and inputs, the model can produce ...
2.1k 词
核心思想量价趋势策略(Volume Price Trend,简称VPT)的核心思想是通过成交量和价格变动的协同关系来判断市场趋势的有效性和持续性。该策略 基于这样一个基本原则:真实的、可持续的价格趋势应当由相应的成交量变化来支撑。 具体来说: 价格上涨伴随成交量增加,表明买方力量强劲,上涨趋势更可靠 价格下跌伴随成交量增加,表明卖方占据优势,下跌趋势更可靠 价格变动但成交量不足,则趋势可能不可持续,或即将出现反转 该策略通过VPT指标量化这种关系,指标值随着价格与成交量的协同变化而累积增长或降低,从而反映市场内在力量的变化。 理论基础VPT策略的理论基础来源于市场技术分析的基本原理和市场微观结构理论: 道氏理论:道氏理论强调市场趋势需要成交量的确认,”成交量应该随趋势增长”的原则被广泛应用于技术分析。 供需关系:金融市场本质上反映了供需关系,成交量增加时价格上涨表明需求增加;成交量增加时价格下跌则表明供应增加。 市场参与度 成交量代表市场参与度,高成交量表明更多投资者认同当前价格走向,使趋势更可靠。 资金流向理论:VPT实际上是在追踪资金流向,通过价格和成交量的乘积累...
4.3k 词
15分钟掌握编程核心概念:一份全面的速查指南编程世界看似复杂,但其核心概念却能以简洁的方式理解。 1. 变量 (Variables) 定义:变量是计算机内存中用于存储信息的命名位置。可以将其想象成一个贴有标签的盒子,用于记录和修改数据。 属性: 名称 (Name):唯一的标识符。 类型 (Type):存储数据的种类。 值 (Value):实际存储的信息。 作用域 (Scope):决定变量可访问的范围(局部或全局)。 内存地址 (Memory Address):数据在 RAM 中的存储位置。 用途:广泛应用于存储游戏分数、计算器中的数字、用户输入等。 2. 语法 (Syntax) 定义:编程语言的“语法和标点”,定义了正确的结构、符号、关键字和运算符组合。 关键要素: 符号和标点:如大括号 {}, 小括号 (), 分号 ;。 关键字:如 if, while, return, for, case。 重要性: 区分大小写:编程语言通常区分大小写,例如 if 和 If 是不同的。 错误处理:不正确的语法会导致编译时或运行时错误。 代码可读性:良好的...
2.7k 词
为什么要使用批次?从计算效率谈起 基本定义回顾: Epoch(回合): 模型完整地看过一次所有训练资料。 Batch(批次): 在一个Epoch内,我们将所有资料分成若干份,每一份就是一个Batch。模型每看完一个Batch,就进行一次参数更新。 Iteration(迭代): 每更新一次参数,就算一次迭代。因此,迭代次数 = Batch的数量。 Small Batch 与 Large Batch 分析large Batch用时:大的batch有平行计算加持,其实并不比小batch慢 分析Small Batch 用时:算整个epoch的时候,其实小batch,不一定算快 重点讲解:GPU并行计算带来的反直觉效率 直觉误区: Batch Size越大,包含的样本越多,计算梯度所需时间应该越长。 关键洞察:这个直觉是错误的!展示的实验数据显示,在GPU上,将Batch Size从1增加到1000,完成一次梯度计算和参数更新所需的时间几乎没有变化。 深度原因:GPU是为大规模并行计算而生的。无论是处理1个样本还是1000个样本的矩阵运算,GPU都能“同时”处理。因此,只要...
91 词
向量乘向量:v1:行向量乘以列向量 v2:列向量乘以行向量 矩阵乘以向量:不同角度的矩阵乘以向量的方法: (左边矩阵,右边列向量) (左边行向量,右边矩阵) 矩阵乘矩阵: 矩阵的分解 四个子空间:
1.8k 词
基本假设和完全共线性(Perfect Multicollinearity)多元线性回归模型中,数据矩阵(其中含有常数项列)被假设具有满列秩(full column rank),也就是说它的列向量线性无关。换言之,。 如果存在一个非零向量 ,使得 那么就意味着矩阵 的列是线性相关的,此时我们称 存在完全共线性(perfect multicollinearity)。 此时,不可逆,,因此我们无法通过正规方程来估计参数。 近似共线性(Collinearity)虽然真实数据中完全共线性是罕见的,但经常会出现“近似”共线性,即:此时称为“多重共线性”或“近似共线性”。 虽然 的列仍然线性无关(即 ,但 非奇异矩阵的行列式很小(接近奇异),于是其逆矩阵 的元素就会很大. 对估计方差的影响我们知道回归系数的协方差矩阵是:当 的某些特征值接近 0,导致 某些对角线元素很大,从而导致某些参数估计的方差极大。 换句话说,如果你用回归模型去估计这些 ,会发现估计值对样本扰动非常敏感,标准误特别大,t检验显著性很低 —— 即模型回归整体有效(R²高),但每个变量看上去都“不显著”。 对称正半...
1k 词
核心概念1. 零假设 ($H_0$) 定义: 假设研究的组间 没有差异,即风险因素/治疗与健康结果之间无关系。 应用: 研究中的默认立场,直到有足够证据推翻它。 2. 备择假设 ($H_a$ 或 $H_1$) 定义: 与零假设相反,声明组间 存在差异。 目标: 研究者希望证明的目标,但无法被绝对“证实”。最接近的方法是 拒绝零假设。 3. I型错误 ($\alpha$) 定义: 错误地拒绝了零假设,即结论认为存在差异,而实际上没有。俗称 假阳性 (False Positive)。 概率: 犯此错误的概率为 Alpha ($\alpha$)。 4. II型错误 ($\beta$) 定义: 未能拒绝本应拒绝的零假设,即结论认为没有差异,而实际上存在。俗称 假阴性 (False Negative)。 概率: 犯此错误的概率为 Beta ($\beta$)。 5. 统计功效 (Power) 定义: 如果差异真实存在,研究能正确发现它的概率。 计算: $\text{Power} = 1 - \beta$ 提升方法: 增加样本量 增加效应大小 提高精...